GitHub 您所在的位置:网站首页 windows support有多大 GitHub

GitHub

2024-07-10 01:22| 来源: 网络整理| 查看: 265

phi3-Chinese

phi3以小搏大(从微软放出的跑分数据看),用不到1/2的小体积(3.8b)超越llama3 8b版性能表现,增大了在手机上部署的可行性。 该仓库致力于收录分散在开源社区的各种phi3的训练变体版本,让更多网友发现那些不为人知的特色有趣权重。 同时也会顺便整理phi相关训练、推理、部署的简单教程。

Chat模型下载 Phi-3-chinese Phi-3-mini-128k-instruct-Chinese 增量SFT版本: modelscope: https://modelscope.cn/models/baicai003/Phi-3-mini-128k-instruct-Chinese/summary 直接DPO版本:https://modelscope.cn/models/zhuangxialie/Phi-3-Chinese-ORPO/summary 扩充词表版本:计划中 Hugging Face(英文原版) Phi-3-mini-128k-instruct:https://huggingface.co/microsoft/Phi-3-mini-128k-instruct Phi-3-mini-4k-instruct:https://huggingface.co/microsoft/Phi-3-mini-4k-instruct ModelScope(英文原版) Phi-3-mini-128k-instruct:https://modelscope.cn/models/LLM-Research/Phi-3-mini-128k-instruct/summary Phi-3-mini-4k-instruct:https://modelscope.cn/models/LLM-Research/Phi-3-mini-4k-instruct/summary 网页部署 streamlit run deploy/streamlit_for_instruct.py ./Phi-3-mini-128k-instruct-Chinese image 当前问题 效果与跑分不符:理想是丰满的,但我实际深度体验英文原版、以及训练中文版体验后,发现phi3-mini并没有它说的那么好用,也许它有很大的刷分嫌疑?也许对它进行叠加block操作后很有潜力? 32K词表过小:它的词表太小了,而且没什么中文token,经常约用3~5个token表示一个汉字,导致虽然它的体积小、加载快、运行快,但实际吐字速度比llama3 8b版还慢。也许应该对它进行词表扩充和增量预训练? 总体来说,我目前对它跑分超越llama3 8b的phi3-mini 3.8b版本是比较失望的, 当然也许这个版本适合更轻量级的下游垂直任务,我们不应该以gpt3.5的水平对它抱以期待?或许做个moe版本会更好?


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有